2
O Agente Verificador de Fatos (ReAct)
PolyU COMP5511Lab 12 | 2026-04-13
00:00

O Problema com Ações Cegas

Ao resolver problemas lógicos complexos ou recuperar múltiplas informações, forçar uma IA a decidir imediatamente sobre uma Ação pode levar a erros desastrosos.

Pense em como um ser humano resolve um quebra-cabeça:

  • Eles não pegam apenas uma peça aleatoriamente e a encaixam na placa.
  • Eles mapeiam mentalmente ou verbalmente uma estratégia: "Primeiro, preciso encontrar as peças com borda plana para o contorno, depois ver se esta peça azul se encaixa."

Da mesma forma, se pedirmos a uma IA para apenas gerar uma Ação—ignorando a fase de raciocínio—ela está agindo "cegamente". Muitas vezes, ela vai adivinhar, alucinar ou escolher a ferramenta errada por completo, pois não mapeou os pré-requisitos necessários para responder à pergunta.

Pensar em Voz Alta
Modelos de linguagem constroem lógica token por token. Forçando a IA a "pensar em voz alta" (gerar texto analisando o problema) antes de selecionar uma ação, fornecemos o espaço necessário para chegar à conclusão lógica correta.
A conceptual illustration contrasting two AI brains. On the left, a robotic brain acting impulsively with a warning sign and error symbols. On the right, a glowing robotic brain with a thought bubble filled with puzzle pieces and step-by-step logic, successfully assembling a puzzle. Minimalist tech aesthetic with light blue, soft orange, and red accent colors.